簡稱KNN,講人話就是在現有歷史資料的基礎上,對於想預測的新資料,直接比對特徵最接近的K筆歷史資料,看他們分別屬於哪種分類,再以投票的方式決定新資料的所屬分類。
最近鄰居法是監督式學習中的分類演算法,能用一句話代表大概就是物以類聚了吧!舉個例子來說,假設你的鄰居朋友裡面,十個有八個都是單身狗,那你也很有可能也是單身狗,差不多是這個概念,再來說明此演算法的步驟:
(一)計算距離
(二)進行投票
(三)決定類別
計算距離的方式有三種:
(一)歐基里德距離 (Euclidean distance)
(二)曼哈頓距離 (Manhattan distance)
(三)明氏距離 (Minkowski distance)
KNN的優點:
1.易理解
2.用途廣
KNN的缺點:
1.計算量大
2.樣本數不平均時,易產生誤差